Световни новини без цензура!
Фалшивите одобрения на знаменитости се превръщат в най-новото оръжие във войните за дезинформация, сеейки объркване преди изборите през 2024 г.
Снимка: cnn.com
CNN News | 2024-12-07 | 02:58:41

Фалшивите одобрения на знаменитости се превръщат в най-новото оръжие във войните за дезинформация, сеейки объркване преди изборите през 2024 г.

Тейлър Суифт не поддържа някогашния президент Доналд Тръмп предишния уикенд. Райън Рейнолдс не беше сниман с риза, подкрепяща Камала Харис. А Комунистическата партия на Съединени американски щати в никакъв случай не е подкрепила към този момент несъществуващата акция на президента Джо Байдън.

Но тези погрешни изказвания за акцията за 2024 година и десетки други изявления с сходни подправени утвърждения избухнаха в обществените медии в навечерието на изборите, съгласно откриватели от News Literacy Project, безпартийна просветителна група, която започва нова база данни Четвъртък записва повече от 550 неповторими случая на дезинформация, обвързвана с изборите.

Последният и най-видим пример за тези подправени твърдения се появи в неделя, когато Тръмп сподели обява в своята платформа Truth Social, съдържаща изображения, създадени благодарение на изкуствен интелект, които предполагат голяма поддръжка от феновете на Swift, наричащи себе си „ Swifties for Trump “. В отговор на подразбиращото се утвърждение от поп иконата Тръмп написа: „ Приемам! “

Суифт, която по-рано нападна Тръмп като „ разпалващ огъня на бялото предимство и расизма “ по време на президентството си, подкрепи Джо Байдън през 2020 година, само че към момента не е подкрепила претендент за президент в конкуренцията през 2024 година

Докато едно изображение в колажа, оповестен от Тръмп, показващо Суифт в облекло на „ Чичо Сам “, явно беше преправено, друго, показващо млада жена на протест, изглеждаше автентично.

Другите изображения, които претендират да демонстрират огромни групи усмихнати почитатели, празнуващи Тръмп, съдържат някои от отличителните белези на изображения, генерирани от AI, съгласно Лукас Хансен, съосновател на CivAI, организация с нестопанска цел, която покачва осведомеността за възходящите благоприятни условия и заплахите на AI.

Тези изображения изглеждаха „ супер пръснати, имат високо качество на камерата “ и „ всички в действителност наподобяват добре “, сподели Хансен. Изображенията употребяват „ мощно боке и замъгляване на фона “, чести черти на изображения, генерирани от AI, сподели той.

Проектът News Literacy Project казва, че е стартирал своето табло за ръководство на дезинформацията в четвъртък, за да увеличи осведомеността за вирусни неистини, които съгласно него представляват „ екзистенциална опасност за демокрацията “ и са най-добре изследвани чрез колективен разбор на стотици образци, вместо самостоятелни инспекции на обстоятелства.

Базата данни, която ще се актуализира постоянно, проследява няколко категории политическа дезинформация – теории на конспирацията, неистини по отношение на политическите възгледи на кандидатите и фалшиви утвърждения – само че групата не мери какъв брой пъти тези вирусни изявления са споделени.

Приблизително 1 от 10 вирусни изявления, оценени от News Literacy Project, съдържат подправени утвърждения, съгласно данни, предоставени извънредно на CNN. Тези изявления описваха хипотетични утвърждения - или различно, публично неуважение - от известни персони, в това число куотърбека на НФЛ Арън Роджърс, актьора Морган Фрийман, музиканта Брус Спрингстийн и политически фигури като някогашната първа дама Мишел Обама.

Публикациите, позоваващи се на тези четири числа, са събрали минимум 10 милиона гледания, демонстрира базата данни.

Понякога откривателите откриват обособени изявления, циркулиращи в обществените медии едновременно, в които се твърди, че една и съща знаменитост е подкрепила и осъдила кандидат, подчертавайки безредната и подвеждаща среда, с която се сблъскват потребителите.

„ Като общо предписание, в случай че видите звезда да носи тениска с категорично политическо обръщение, има огромен късмет да е подправена “, сподели Дан Евън, старши управител в News Literacy Project.

Мантинелите падат

Фалшивите утвърждения, разпространяващи се в обществените медии, идват, когато софтуерните платформи демонтират защитните парапети и политиките за модериране, предопределени да понижат разпространяването на рискова дезинформация.

Тези промени са най-остри в X, по-рано известен като Twitter, след като милиардерът Илон Мъск купи компанията и разруши вътрешните екипи, които работиха за прекъсване на разпространяването на дезинформация за изборите, и възстанови забранените сметки на видни теоретици на конспирацията и екстремисти.

Експерти споделят, че казусът е изострен от основания на AI чатбот на X, Grok, който вече си навлече гнева на изборните чиновници за разпространяването на невярна информация по отношение на допустимостта на Харис на изборите през 2024 г. Миналата седмица X стартира да разрешава на потребителите да употребяват Grok за основаване на генерирани от AI изображения от текстови подкани, отприщвайки поток от подправено наличие за Тръмп и Харис.

„ В бъдеще Grok евентуално ще бъде един от главните източници на тези типове изображения, тъй като генерира висококачествени изображения, елементарно е наличен и съзнателно е изработен да има невисок % на отвод “, сподели Хансен, добавяйки, че е може да употребява Grok, с цел да сътвори изображения на „ Swifties for Trump “, които доста наподобяват на тези, които Тръмп показа.

X не отговори на претенции за коментар по отношение на основаването на подвеждащи изображения, включващи политически претенденти.

Meta, която има Фейсбук и Instagram, също редуцира част от екипите си за честност на изборите, заяви CNN по-рано. Гигантът на обществените медии сподели предходната година, че „ нито една софтуерна компания не прави повече или влага повече, с цел да отбрани изборите “, и обяви, че ще изисква политическите рекламодатели да разкриват, в случай че са употребявали AI за основаване или смяна на изображения.

Но даже докато някои онлайн платформи се борят да отбелязват изображения, генерирани от изкуствен интелект, а проверяващите обстоятелства развенчават най-новите вирусни неистини, потокът от измислени материали може да окаже въздействие.

„ Ако неведнъж виждате тези неистини, които преувеличават известността на даден претендент, това към момента може да се задържи, даже в случай че знаете, че не е законно, до момента в който превъртате около тях в вашата емисия “, сподели Питър Адамс, старши вицепрезидент по проучванията на News Literacy Project, пред CNN.

Въпреки че стартирането на обществено налични принадлежности за изкуствен интелект улесни основаването на подвеждащи изказвания, включително много от подправените утвърждения, разпознати от News Literacy Project, други подправени изображения, циркулиращи в обществените медии, използват елементарен фотошоп.

Използването на AI за измисляне на политическа дезинформация е „ не толкоз публикувано и пагубно, колкото хората в началото се опасяваха “, сподели Адамс, добавяйки, че традиционните методи за поправяне на изображения и видеоклипове засега остават „ доста по-евтини, само че също толкоз ефикасни “.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!